
كرّر بعدي: خدعة بسيطة في المطالبات تزيد من دقة نماذج اللغة الكبيرة (LLM) بشكل كبير
تكشف ورقة بحثية جديدة من Google Research أن تكرار المطالبات يمكن أن يعزز بشكل كبير الدقة في نماذج اللغة الكبيرة (LLMs) للمهام التي لا تتطلب تفكيرًا معقدًا، مما يحسن الأداء عبر نماذج مثل Gemini و GPT-4o بنسبة تصل إلى 76٪. تعالج هذه التقنية البسيطة، التي تستفيد من بنية Transformer، "النقطة العمياء السببية" وتقدم طريقة مجانية لتحسين مخرجات LLM، مما يشير إلى إعادة تقييم استراتيجيات المطالبة المعقدة.


















Discussion
Join the conversation
Be the first to comment